NAVIGATION (SYSTÈMES DE)


NAVIGATION (SYSTÈMES DE)
NAVIGATION (SYSTÈMES DE)

Naviguer consiste, au sens originel, à se déplacer ou à voyager sur l’eau. Par extension logique, ce terme qualifie également l’art et la science de conduire un navire. Ultérieurement, la notion de navigation s’est étendue aux domaines aérien, terrestre et spatial.

Nul ne saura peut-être jamais ce que furent les premières embarcations, mais leurs occupants ont nécessairement découvert en premier lieu l’observation de la côte, c’est-à-dire la navigation en vue de terre, qui est restée la règle pendant des millénaires. Cette forme de navigation, de havre en crique, que certains historiens ont qualifiée de processionnaire, a duré jusqu’au XVe siècle, même si auparavant quelques groupes humains, poussés par le hasard et l’inconscience, ont pu traverser les océans et peupler des terres nouvelles.

Mise à l’honneur par Henri le Navigateur au XVe siècle, la navigation vers le large a pu se développer grâce aux travaux des astronomes qui ont su établir des éphémérides permettant de connaître les coordonnées des astres en fonction du temps. À partir de cette époque, la navigation astronomique s’est imposée comme l’un des moyens de découverte de la terre, œuvre parachevée trois siècles plus tard, à quelques marges près, avec les voyages de Louis Antoine de Bougainville, de James Cook et de Jean François de Galaup, comte de Lapérouse.

La représentation de cette terre repose, à partir du XVIe siècle, sur les travaux de Gerhard Kremer, dit Mercator, l’un des fondateurs de la cartographie mathématique. Cette représentation a été définie à partir d’une projection de la sphère sur un cylindre tangent à l’équateur, mais en modifiant les ordonnées du carroyage méridiens-parallèles, de telle sorte que la représentation plane obtenue ait pour propriété fondamentale la conservation des angles. Ainsi la courbe terrestre, appelée loxodromie, qui coupe tous les méridiens sous un angle constant devient une droite sur la carte. Tandis que l’arc de grand cercle ou orthodromie, plus court chemin d’un point à un autre sur la sphère, est représenté sur la carte par une courbe complexe dont la concavité est tournée vers l’équateur (fig. 1).

Les premiers moyens pratiques de navigation, la boussole, connue en Chine dès les débuts de l’ère chrétienne, les instruments de mesure de la hauteur angulaire des astres, apparus au Moyen Âge, ou les montres de marine, perfectionnées au XVIIIe siècle, ont été les précurseurs de la radioélectricité, du gyroscope, des satellites et des calculateurs du XXe siècle. Tous ces instruments sont maintenant à notre disposition pour aider à la conception de moyens, de méthodes et de systèmes de navigation.

1. La navigation naturelle

Même si cette expression n’est pas consacrée par l’usage, il paraît satisfaisant pour l’esprit d’étudier d’abord les méthodes qui reposent sur les éléments de la nature: le point en vue de terre, le point astronomique et l’estime. Sans épiloguer ici sur les notions de positionnement, localisation ou navigation, le simple bon sens appelle la connaissance de la position avant celle de la route.

Le point en vue de terre

Le point en vue de terre repose sur l’observation de points remarquables, identifiés par le navigateur, appelés amers. Ces points constituent des repères géodésiques, fixés sur la terre et représentés sur la carte. Le relèvement angulaire des amers est mesuré à l’aide d’une alidade, instrument de visée associé à un répétiteur du compas, magnétique ou gyroscopique. Notons ici que le compas magnétique se réfère au pôle magnétique, alors que la carte est orientée selon le nord géographique. Les indications d’un compas magnétique doivent donc être corrigées d’une valeur appelée déclinaison, qui varie selon les zones géographiques.

Le relèvement d’un amer est représenté sur la carte par une droite qui constitue un lieu du navire. Le relèvement simultané de plusieurs amers fournit plusieurs lieux dont l’intersection donne la position du mobile. Si les observations étaient parfaites, trois relèvements se couperaient en un point. Dans la pratique, le résultat se présente sous la forme d’un triangle qu’on souhaite le plus petit possible. Le point adopté est alors le centre du cercle inscrit dans ce triangle.

Le point astronomique

La navigation astronomique consiste à déterminer des lieux de position du mobile en mesurant la hauteur angulaire d’un astre au-dessus de l’horizon, à l’aide d’un sextant. Tous les points de la terre, à partir desquels un astre est observé à la même hauteur, sont situés sur un cercle de hauteur, centré sur la verticale qui joint l’astre au centre de la terre, et dont le rayon est fonction de la hauteur de l’astre. Les éphémérides indiquent les coordonnées des principaux astres en fonction du temps du méridien origine (fig. 2).

La résolution du triangle sphérique pôle-zénith-astre, appelé triangle de position, obéit alors à la formule suivante, utilisée depuis la fin du XVIIIe siècle:

où D et AH sont la déclinaison (D) et l’angle horaire (AH) de l’astre (a ), donnés par les éphémérides (o pour origine du méridien), alors que 﨏 et G sont la latitude et la longitude de l’observateur. Deux observations astrales permettent d’obtenir un système de deux équations à deux inconnues, et par suite d’obtenir 﨏 et G. En toute rigueur, les deux observations doivent être simultanées, sans quoi il est nécessaire d’utiliser des artifices de calcul pour synchroniser les résultats. Tel est le cas lorsque l’élaboration du point repose sur les observations successives d’un seul astre, le Soleil par exemple. Une seule observation ne donne qu’un lieu du mobile, plusieurs, convenablement «transportées» dans le temps, donnent une intersection, et par conséquent le point.

La méthode de calcul la plus pratique revient à assimiler les cercles de hauteur, lieux géométriques du mobile, avec leur tangente dans une zone restreinte. Mais cela nécessite au préalable une connaissance approchée des coordonnées de l’observateur. Après les méthodes dites du «parallèle estimé» puis du «méridien estimé», dues à Joseph Jérôme Lefrançois de Lalande et à Charles de Borda, un pas décisif a été franchi grâce à la méthode du «vertical estimé» ou du «point approché», due à Marcq de Blond de Saint-Hilaire, qui a permis à des générations de marins de tracer des droites de hauteurs. Quant à l’exécution des calculs, d’innombrables tables de logarithmes ont maintenant cédé la place aux calculatrices électroniques avec programmes de navigation.

L’estime

Le point étant déterminé à un instant donné, un certain temps peut s’écouler avant qu’une nouvelle observation ne vienne donner un nouveau point. Pourtant, il est nécessaire que la position du navire soit connue de façon permanente. C’est le problème de l’estime. La cinématique du mobile est déterminée par sa route et sa vitesse. Si ces deux paramètres sont connus sans erreur, la position exacte du navire, à la précision près du point initial, est connue à chaque instant.

Cependant, un certain nombre de perturbations, propres au navire ou liées à l’environnement, peuvent affecter l’appréciation des paramètres route et vitesse. La déclinaison magnétique, déjà évoquée, est une première source d’erreur. Par ailleurs, les masses magnétiques du navire, artificiellement mais imparfaitement compensées, induisent une variation résiduelle du compas magnétique. Le compas gyroscopique, quant à lui, est sensible aux mouvements du navire et à certaines imperfections de réglages. Au total, la précision du cap affiché est difficilement meilleure que le degré. Quant aux lochs, qui mesurent la vitesse sur l’eau, leur précision est de l’ordre du demi-nœud pour les lochs à pression, et au mieux du dixième de nœud (1 nœud équivalant à 1 mille marin par heure, ou 1852 m/h) pour les lochs électromagnétiques.

Les influences de la mer et du vent se manifestent sous la forme du courant, masse d’eau qui transporte le navire, et du vent qui développe une poussée sur les superstructures. La résultante de ces actions fait apparaître une différence angulaire, appelée dérive, entre le cap affiché et la route vraie suivie sur le fond. Au total, la somme des erreurs en direction et en distance place le point estimé dans une zone d’incertitude, généralement assimilée à un cercle dont le rayon augmente avec le temps.

L’étude de l’estime comporte deux problèmes distincts. Le problème direct consiste à déterminer, à partir d’un point connu, la position d’un navire ayant suivi pendant un temps t une route R à une vitesse v . Si cette route a été suivie à cap constant, c’est une loxodromie, elle est représentée sur la carte par une droite. Le problème inverse de l’estime consiste à déterminer la route à suivre pour se rendre d’un point à un autre. Si ces deux points sont suffisamment éloignés l’un de l’autre, il est intéressant de choisir le chemin le plus court, c’est-à-dire l’arc de grand cercle. Mais cette orthodromie est représentée sur la carte par une courbe complexe, et le suivi d’une telle route nécessiterait théoriquement un cap constamment variable. Dans la pratique, l’orthodromie est remplacée par une succession de tronçons de routes loxodromiques, donc rectilignes, dont elle constitue l’enveloppe.

Notons enfin que les moyens naturels de navigation, en vue de terre, astronomique ou estime, reposent sur des instruments et des méthodes, mais qu’aucun d’entre eux n’a jamais été qualifié de «système». Les systèmes de navigation résultent de l’évolution scientifique ultérieure. Par ailleurs, les aviateurs, dès leurs débuts, ont pratiqué ces mêmes méthodes avec quelques nuances imposées par leur milieu spécifique.

2. La navigation radioélectrique

Les principes théoriques de la radioélectricité ont été mis en lumière à partir du milieu du XIXe siècle, mais rien, à cette époque, ne laissait présager un bénéfice direct pour la navigation. C’est au début du XXe siècle, une dizaine d’années après ses premières applications pratiques, que l’onde radioélectrique porteuse d’information arrive à bord.

La première utilisation est matérialisée en 1907 par la transmission radioélectrique de signaux horaires. Auparavant, l’ignorance de l’heure du méridien origine entraînait l’ignorance de la longitude, levée en partie grâce aux efforts déployés, au XVIIIe siècle, pour mettre au point les précieuses montres marines, mais l’événement de 1907 est capital car il installe, à bord des navires, une conservation précise du temps. La qualité du point astronomique progresse alors d’un ordre de grandeur appréciable.

La seconde application radioélectrique au profit de la navigation apporte, hors de vue de terre, le relèvement d’un amer invisible. En 1908, en effet, pour la première fois, un récepteur embarqué, équipé d’une antenne orientable, peut mesurer la direction de l’émetteur.

Cette époque peut sans doute être considérée comme la véritable date de naissance des «systèmes de navigation», caractérisés soit par la conjugaison d’équipements de bord et d’infrastructures à terre associées, soit d’équipements de bord suffisamment complexes pour acquérir une certaine autonomie.

Les nombreux systèmes de radionavigation qui se succèdent depuis des dizaines d’années sont tributaires des paramètres de la radioélectricité. L’onde électrique est caractérisée par sa fréquence, qui conditionne sa propagation, sa phase et son amplitude. Ces paramètres de base identifient l’onde porteuse, qu’on peut moduler de diverses manières pour lui faire véhiculer une information. N’oublions pas cependant que la seule présence de l’onde porteuse, non modulée, constitue déjà, par elle-même, une information.

Les systèmes radiogoniométriques

La radiogoniométrie est une utilisation directe de cette information de présence de l’onde porteuse. Le récepteur embarqué est équipé d’une antenne constituée par un cadre orientable autour d’un axe vertical. Le flux induit dans cette antenne est maximal lorsque le plan de l’antenne est perpendiculaire au champ. En faisant tourner l’antenne, on peut apprécier, sur écouteurs ou sur tube cathodique, l’extinction du signal, et repérer ainsi la direction de l’émetteur, à 180 degrés près. Une antenne filaire auxiliaire permet de lever ce doute. Un équipement plus perfectionné, appelé système Bellini-Tosi, a remplacé l’antenne orientable par une antenne fixe constituée par deux cadres orthogonaux. Le signal reçu est acheminé dans un récepteur à deux bobines fixes, elles-mêmes analysées par une bobine mobile.

Le radiocompas est la forme la plus évoluée du radiogoniomètre. Un cadre, tournant d’un mouvement uniforme, recueille un courant périodique proportionnel à la composante du champ incident. Un alternateur fournit, par ailleurs, un courant de référence de même fréquence, qui matérialise la ligne de foi ou axe du mobile, navire ou avion. La différence de phase des deux signaux est proportionnelle au gisement de l’émetteur, qui s’affiche sur un cadran.

Les radiophares émettent des signaux caractéristiques qui facilitent leur identification et leur relèvement. À ce titre, il sont, dans le domaine de la radionavigation, les héritiers des phares optiques à éclats, à occultations ou à secteurs colorés. Leur principe de base, qui date des origines de la radiogoniométrie, consiste à faire rayonner par deux antennes des signaux morse complémentaires, par exemple A (.–) et N (–.). Si la puissance émise par chacune des deux antennes est identique, le signal reçu dans la direction d’intersection des deux lobes de rayonnement est un son continu qui permet le relèvement de l’émetteur. Les radiophares travaillent pour la plupart en moyenne fréquence, entre 250 et 500 kHz.

Il existe plusieurs types de radiophares. Les radiophares directionnels ou radioalignements obéissent directement au principe décrit ci-dessus et peuvent être utilisés, par exemple, pour baliser une entrée de port. Au contraire, les radiophares omnidirectionnels émettent leur signal caractéristique sur tout l’horizon. Si cette émission est simultanée sur tout l’horizon, le radiophare est dit circulaire; près de deux mille stations de ce type sont en service dans le monde (en 1994). Mais si le rayonnement est constitué par un pinceau qui balaie l’horizon à vitesse uniforme, le radiophare est dit tournant; les émetteurs tournants sont peu nombreux.

Le système Consol

Le système Consol constitue un développement particulier du principe du radiophare tournant. Inventé en Allemagne à la fin des années trente, il fonctionne en moyenne fréquence, entre 190 et 372 kHz, et utilise comme antennes trois pylônes, disposés en ligne droite, et espacés l’un de l’autre de trois longueurs d’onde. Le rythme de distribution du signal, entre l’antenne centrale et les deux antennes latérales, crée deux diagrammes de rayonnement comportant des lobes alternés. Si cette alimentation des antennes est en outre convenablement modulée en fonction du temps, les deux diagrammes tournent en sens inverse l’un de l’autre. Le navigateur reçoit ainsi un signal, formé d’une succession de points, qui se changent en traits, puis inversement, au passage de chaque ligne d’équisignal. Le comptage de ces points et de ces traits permet, en se référant à une carte Consol, de connaître le relèvement de l’émetteur. Cependant, pour lever l’ambiguïté inhérente au système qui comporte une succession de lobes de rayonnement, la position du mobile doit être connue a priori avec une certaine approximation.

Le Consol représente le terme de l’évolution des applications de la radiogoniométrie et peut être considéré comme un système de transition. En effet, il comporte déjà un système d’émission complexe mais ne fournit encore qu’un relèvement, donc un seul lieu du mobile. On pressent à partir de là que les progrès réalisés dans les techniques de traitement du signal et l’utilisation d’émetteurs multiples pourront apporter une information de position plus complète, soit par relèvement et distance, soit par combinaison de plusieurs lieux géométriques. Dans un cas comme dans l’autre, le point serait entièrement déterminé par une seule observation radioélectrique, et non plus par plusieurs opérations.

De nombreux radiophares fonctionnent encore dans le monde entier, quelques émetteurs Consols couvrent encore la mer du Nord, et le radiocompas est toujours utilisé en navigation aéronautique. Dans ce dernier domaine, les aviateurs, après avoir navigué à vue, ont adopté successivement le compas magnétique puis les premiers équipements de radionavigation, notamment le radiocompas et le Consol. L’aviation est contemporaine de la radioélectricité, et ces deux sciences, étrangères l’une à l’autre à leur naissance, ont rapidement établi entre elles une complicité. Actuellement, aucun nouveau développement de la radionavigation n’est plus spécifique à la navigation maritime ou aérienne, mais concerne nécessairement l’une et l’autre, avant d’atteindre d’ailleurs de nouveaux utilisateurs terrestres et spatiaux.

3. Les systèmes à émetteurs multiples

La complexité des systèmes augmentant, la poursuite de cette étude nous amène à rappeler quelques données de base de la radioélectricité.

La propagation, tout d’abord, peut être schématisée très grossièrement selon quatre domaines de fréquences à l’intérieur desquels les phénomènes sont très spécifiques;

– V.L.F. (Very Low Frequency), de 10 à 15 kHz: les ondes sont guidées entre le sol et la première couche réfléchissante de l’ionosphère, elles se propagent sur de très grandes distances et pénètrent, sous quelques mètres, dans l’eau.

– L.F.M.F. (Low/Medium Frequency), de 70 à 2 000 kHz: le rôle conducteur du sol s’atténue, et les réflexions sur les couches ionosphériques deviennent prépondérantes, les portées obtenues sont plus faibles et moins stables.

– H.F. (High Frequency), de 3 à 30 MHz: la propagation s’effectue essentiellement par réflexions successives entre les couches ionisées et le sol dont le rôle n’est plus conducteur mais réflecteur, les portées varient selon l’ionisation.

– V.H.F. (Very High Frequency) et au-dessus (U.H.F., S.H.F...), à partir de 100 MHz: les ondes traversent les couches ionosphériques en se réfractant, les portées sont comparables aux portées optiques mais soumises aux phénomènes d’absorption.

Quant au traitement du signal, il progresse essentiellement sous deux aspects. Les techniques de modulation de l’onde porteuse se perfectionnent, notamment par production d’impulsions brèves à fronts raides. Par ailleurs, la mesure du temps devient de plus en plus précise grâce aux horloges atomiques et permet une meilleure exploitation des impulsions, des temps de propagation et de la phase du signal.

Les systèmes hyperboliques reposent sur les propriétés géométriques de l’hyperbole, lieu des points où la différence des distances (c’est-à-dire des temps de propagation) de deux points est constante, ces deux points fixes étant les foyers de l’hyperbole. À mesure des progrès réalisés dans le traitement du signal est apparue la possibilité de comparer les temps de propagation des signaux en provenance de deux émetteurs (fig. 3). Plusieurs brevets ont été déposés avant la Seconde Guerre mondiale, et de nombreux systèmes ont été développés depuis lors.

Systèmes à moyenne portée

Le Decca, développé en Angleterre, devenu opérationnel avant la fin de la Seconde Guerre mondiale, est le doyen des systèmes hyperboliques. Il travaille dans la gamme L.F., à des fréquences comprises entre 70 et 128 kHz, et est de ce fait exploitable jusqu’à des distances de l’ordre de 300 milles, ou un peu plus de jour en l’absence d’onde réfléchie.

Une chaîne Decca se compose d’une station principale appelée «station maître» et de trois stations associées, disposées en étoile, et appelées «stations esclaves». Ces trois couples maître-esclave engendrent trois réseaux d’hyperboles. Chaque station émet une onde entretenue pure à une fréquence qui lui est propre, les quatre fréquences étant simplement des multiples différents d’une même fréquence de base, artifice qui facilite la comparaison des signaux à la réception. Les stations esclaves sont asservies en phase sur la station maître, et le récepteur compare les phases à l’arrivée. La précision obtenue varie de 10 à 200 mètres selon les situations.

L’exploitation de ce système s’effectuait à l’origine par lecture des numéros d’hyperboles sur le récepteur et report sur des cartes spéciales. Le développement des calculateurs a permis ultérieurement la lecture directe des coordonnées sur le récepteur. Le Decca, précurseur des systèmes hyperboliques, a été très exploité dans le domaine maritime mais n’a obtenu que peu de succès en navigation aéronautique. L’implantation des chaînes Decca est en régression dans le monde et laisse présager la disparition de ce système.

Le Loran C (Long Range Navigation) est également un système hyperbolique synchronisé, mais auquel se superpose une modulation par impulsions. Il a été précédé dans cette voie, à partir de la fin de la Seconde Guerre mondiale, par les systèmes G.E.E. et Loran A, qui travaillaient à des fréquences plus élevées. L’utilisation d’une basse fréquence, à 100 kHz, permet d’obtenir des portées de l’ordre de 800 à 2 000 milles selon les heures. Ce système concilie la précision des systèmes à mesure de phase et la moindre ambiguïté des systèmes à impulsions.

Une chaîne Loran C comporte, comme une chaîne Decca, une station maître et plusieurs stations esclaves, entre deux et quatre. Chaque station esclave engendre avec la station maître un réseau d’hyperboles, lieux de position du mobile. Chaque station émet séquentiellement un groupe d’impulsions. Les stations esclaves reçoivent les émissions maîtres et réémettent avec un retard (coding delay ) propre à chaque station. Le cadencement et le retard sont choisis de telle sorte que le récepteur reçoive les signaux toujours dans le même ordre. L’onde porteuse de certaines impulsions est émise en opposition de phase par rapport à la porteuse des autres impulsions; ce codage en phase caractérise les stations et permet leur identification automatique à la réception (fig. 4).

Les mesures de réception s’effectuent en deux étapes. La mesure de l’intervalle de temps qui sépare la réception des impulsions maîtres et celle des impulsions esclaves assure un dégrossissage. La mesure du déphasage des ondes porteuses maître et esclaves permet ensuite une mesure fine. La précision obtenue dépend de plusieurs facteurs: défauts de synchronisation des stations émettrices, précision du récepteur, incertitude sur la correction à appliquer à l’onde de ciel. L’erreur globale est inférieure à 0,5 mille en onde de sol, jusqu’à 800 milles, et inférieure à 5 milles en onde de ciel, jusqu’à 2 000 milles.

Ces valeurs qualifient le Loran C comme un excellent système de route océanique ou continentale, tant pour la marine que pour l’aviation. La couverture des chaînes Loran C est actuellement très étendue, dans les limites de portée déjà indiquées, dans le Pacifique nord, l’Atlantique nord, la Méditerranée et la mer Rouge, et son développement se poursuit. Un navigateur maritime ou aérien peut désormais effectuer presque complètement le tour de l’hémisphère Nord sous couverture Loran C. Ce système à vocation mondiale tend à supplanter définitivement son ancêtre Decca.

Système à couverture mondiale

Le système Omega a reçu ce nom de baptême parce que, dans l’esprit de ses promoteurs, il représentait le terme ultime de la recherche du système de navigation universel. Cette conception ne manquait pas d’ambition au moment même de l’essor des satellites. Ce système hyperbolique à mesure de phase a pour but d’assurer une couverture mondiale à partir de huit stations seulement, en profitant des conditions de propagation des très basses fréquences. Les réseaux hyperboliques sont définis par les combinaisons des stations deux à deux.

Le mécanisme des émissions est le suivant. Les huit stations émettent successivement, toujours dans le même ordre et pendant une durée, propre à chaque station, de l’ordre de une seconde. Les émissions sont constituées par des ondes entretenues pures, successivement sur trois fréquences V.L.F. (10,2 kHz, 11,33 kHz et 13,6 kHz), l’ordre d’émission de ces trois fréquences étant également propre à chaque station. La durée totale du cycle pour l’ensemble des huit stations est de dix secondes. La synchronisation générale de la phase de référence est requise à la microseconde près.

Le récepteur mesure les différences de phase à l’arrivée des signaux en provenance d’au moins trois stations, pour obtenir un recoupement entre deux réseaux d’hyperboles. Les résultats s’affichent sur des récepteurs digitaux. Des corrections systématiques de propagation doivent être appliquées en fonction de la date (par périodes de quinze jours), de l’heure de la journée et de la position estimée. Le système Omega n’a pu en effet être mis au point que grâce à la possibilité de prévoir les durées de propagation des fréquences V.L.F. utilisées sur un parcours donné. La précision espérée est dans tous les cas meilleure que 5 milles.

Le système complémentaire, nommé Omega différentiel, a pour objet de remédier à cette imprécision due aux conditions de propagation. Des récepteurs Omega implantés à terre mesurent la différence entre la position reçue et la position réelle, et ces corrections sont diffusées aux mobiles. La précision obtenue est alors de l’ordre du mille jusqu’à 300 milles. La couverture Omega différentiel concernait en premier lieu une partie de l’Europe et de l’Afrique. Ce système Omega est lui aussi appelé à disparaître, probablement vers la fin de ce siècle.

Systèmes de proximité

À côté des trois systèmes hyperboliques majeurs décrits ci-dessus, un certain nombre d’autres systèmes se sont développés avec des objectifs plus localisés. Nous ne faisons que citer ici les plus connus d’entre eux.

Le Rana (Radio Navigation) fonctionne en moyenne fréquence, avec pour principe général un mélange de fréquences, les unes particulières, les autres communes à l’ensemble des stations du réseau. Développé en France, il a eu pour ambition de concurrencer le Decca, avec une portée plus faible mais une meilleure précision. Un système dérivé, baptisé R.A.G.E.P. (radio navigation de guidage et d’entrée de port), travaille en ondes métriques et obtient une précision de quelques mètres.

Le Toran (Topographic Radio Navigation) est constitué par des couples de stations qui émettent, dans la partie supérieure de la bande M.F., deux fréquences voisines l’une de l’autre. Pour déterminer l’hyperbole, le récepteur mesure la phase du battement réalisé à basse fréquence par ces deux ondes. Ce système donne une bonne précision, de l’ordre de 10 mètres, mais sa portée ne dépasse pas 200 milles. La souplesse d’installation des couples d’émetteurs lui a valu un certain succès, notamment dans le golfe de Gascogne.

Le Syledis (système léger de mesure de distance) fonctionne dans la gamme U.H.F., entre 420 et 450 MHz, et utilise la technique de compression d’impulsion par corrélation. En mode circulaire, le mobile interroge des balises à terre et mesure le temps qui sépare le signal interrogateur et les signaux réponses. En mode hyperbolique, le mobile est muet, seules les balises à terre émettent. La portée peut atteindre de trois à quatre fois la portée optique, avec des précisions de 1 à 3 mètres. La légèreté du système rend son implantation facile à la demande pour des opérations précises.

Le Trident appartient à la même famille des systèmes constitués par des interrogateurs mobiles et des balises répondeuses fixes. Son principe de fonctionnement s’apparente à celui du D.M.E. (Distance Measuring Equipment; cf. Les systèmes V.O.R., D.M.E. et Tacan ). Il travaille dans la gamme U.H.F., à 1 219 MHz, et utilise des trains d’impulsions codées. Sa méthode de base appartient au mode circulaire, mais il peut également fonctionner en mode hyperbolique. Si la hauteur des aériens le permet, sa portée peut dépasser 100 milles, avec une précision métrique.

4. Les dispositifs spécifiques

Les systèmes décrits jusqu’à présent, quelle que soit leur envergure – mondiale, régionale ou locale –, sont en principe polyvalents, même si trois d’entre eux seulement, Consol, en son temps, puis Omega et Loran C, se sont imposés en navigation aéronautique.

Lorsque la circulation aérienne s’est intensifiée est apparue la nécessité de discipliner les mouvements et de définir des routes aériennes ainsi que des conditions d’approche et d’atterrissage. Cette matérialisation appelait un balisage sur les continents. L’Organisation de l’aviation civile internationale (O.A.C.I.), créée en 1944, a effectué dans ce domaine un travail fondamental de normalisation.

Les systèmes V.O.R., D.M.E. et Tacan

Le système V.O.R. (V.H.F. Omnidirectionnel Radio Range), normalisé en 1949 en qualité d’aide à la navigation à moyenne distance, est un radiophare tournant. Il émet une fréquence V.H.F., comprise entre 108 et 118 MHz, modulée de manière à transmettre simultanément et indépendamment deux signaux à 30 Hz, dont la différence de phases dans un azimut donné caractérise cet azimut. Pour obtenir ce résultat, le V.O.R. rayonne le 30 Hz variable suivant un diagramme symétrique en forme de cardioïde, animé d’une vitesse de rotation de 30 tours par seconde, et en même temps, suivant un diagramme omnidirectionnel par l’intermédiaire d’une sous-porteuse, un signal de 30 Hz de référence dont la phase est identique dans tous les azimuts.

Les émetteurs V.O.R. se réfèrent toujours au nord magnétique, sauf dans les régions polaires. Le récepteur de bord présente la différence de phase mesurée, d’une part, sur un indicateur de relèvement, d’autre part, sur un sélecteur d’azimut dont la référence, au lieu d’être le nord magnétique, est une direction choisie par l’utilisateur. Si cette direction choisie est le relèvement de la station V.O.R., le signal de déphasage est nul lorsque l’aéronef fait route sur l’émetteur. Cet équipement est complété par un indicateur d’écart latéral.

Ce système, qui pourrait théoriquement être utilisé pour localiser le mobile en effectuant par exemple un point par trois relèvements sur trois stations, est en réalité exploité comme un radioalignement, souvent associé à un équipement de mesure de distance (D.M.E.). Environ deux mille stations V.O.R. fonctionnent dans le monde, dont trois cents en Europe (en 1994).

Le D.M.E. (Distance Measuring Equipment) est un système qui mesure la distance entre un interrogateur de bord et une station au sol équipée d’un transpondeur. Complément naturel du V.O.R., il fournit à l’avion sa position en coordonnées polaires. Le D.M.E. a été normalisé par l’O.A.C.I. en 1959.

Cet équipement fonctionne dans la gamme U.H.F., entre 962 et 1 213 MHz, en 252 couples de canaux dont la plupart sont associés à une voie V.O.R. afin de faciliter l’exploitation simultanée des deux systèmes. La fréquence d’émission est modulée par des impulsions qui caractérisent l’émetteur, le transpondeur répond à toutes les demandes, et il appartient au récepteur de bord de sélectionner sa propre réponse. La capacité théorique d’accueil de chaque transpondeur est de 100 avions, dont 5 en phase de recherche et 95 en phase de poursuite. Le risque de saturation du système n’est donc pas nul dans des zones encombrées.

La pratique qui consiste à baliser les routes aériennes et à faire voler les avions de V.O.R. en V.O.R. a pendant un certain temps freiné le développement du D.M.E., qui ne paraissait pas indispensable. Mais l’encombrement de ces itinéraires a amené, notamment aux États-Unis, la création de nouvelles routes qui ne s’appuyaient pas directement sur des V.O.R. L’essor des calculateurs de bord a alors permis une meilleure exploitation de ces deux équipements, soit en donnant la position par plusieurs mesures D.M.E. comme le ferait un radar, soit plus généralement en azimut-distance sur un seul ensemble V.O.R.-D.M.E.

La portée de ce système est conforme aux fréquences U.H.F. utilisées, les puissances mises en jeu permettent d’atteindre 200 milles lorsque l’altitude de l’avion est suffisante. La précision est systématiquement de 0,2 mille ou 0,25 p. 100 de la distance.

Le Tacan (Tactical Air Navigation) est un système à usage militaire qui regroupe sur la même porteuse les fonctions azimut (V.O.R.) et distance (D.M.E.), et donne par conséquent la position de l’avion en coordonnées polaires. Il fonctionne dans la même gamme U.H.F. que le D.M.E., avec les mêmes principes de base que les deux systèmes précédents.

Les systèmes I.L.S. et M.L.S.

L’I.L.S. (Instrument Landing System), aide à l’approche et à l’atterrissage, a été normalisé par l’O.A.C.I. dès 1947. Il définit une trajectoire rectiligne de descente de faible pente par l’intersection de deux surfaces, et comporte dans ce but deux radiophares: le radioalignement de piste (localiser ) et le radioalignement de descente (glide-path ). Le système est complété par deux ou trois radiobornes (ou markers ), qui rayonnent verticalement et constituent des repères de distances avant l’entrée de la piste.

Les radioalignements de piste travaillent en V.H.F. entre 108 et 112 MHz, ceux de descente en U.H.F. entre 328 et 335 MHz. Le principe de réalisation des alignements repose soit sur un «équisignal» à l’intersection de deux lobes de rayonnement, soit sur un «zéro de référence» formé par la superposition d’un diagramme symétrique et de deux lobes latéraux en opposition de phase.

Les signaux I.L.S. et V.O.R. étant situés dans la même bande de fréquence et avec la même polarisation, les équipements de bord utilisent souvent une antenne et un récepteur communs aux deux systèmes jusqu’à la démodulation. Les informations I.L.S. sont présentées au pilote sur des indicateurs qui matérialisent les écarts angulaires entre la trajectoire idéale et la position réelle, dans des secteurs angulaires de 梁 3 degrés en gisement et de 梁 1 degré en site.

Tous les systèmes goniométriques décrits jusqu’à présent, quel que soit leur domaine d’emploi, souffrent d’une certaine imprécision dans leurs mesures d’angles, fonctionnent à des fréquences trop basses pour être bien protégés contre les trajets d’ondes multiples et sont de conception relativement ancienne. La survivance des systèmes V.O.R. et I.L.S. est assurée au moins jusqu’au début du XXIe siècle, même si certains équipements doivent être remplacés. Mais les principes de base de la radiogoniométrie demeurent, comme le prouve le dernier-né des systèmes aéronautiques.

Le M.L.S (Microwave Landing System) est un radiophare tournant dont les vertus essentielles sont l’hyperfréquence, 5 GHz, et la souplesse d’emploi. Sa définition a été précédée par de multiples projets et de très longs débats, avant d’aboutir en 1978 au choix par l’O.A.C.I. de la version T.R.S.B. (Time Reference Scanning Beam). Cet intitulé explicite à lui seul le fonctionnement du système, si l’on peut dire.

Le M.L.S.T.R.S.B. est un dispositif à faisceau battant. Le radiophare émet selon un diagramme étroit, de 1 à 3 degrés, qui balaie un secteur de l’espace alternativement dans chaque sens. Connaissant la loi de balayage de l’émetteur, le récepteur de bord détermine sa position angulaire en mesurant l’intervalle de temps qui sépare les passages aller et retour du faisceau (fig. 5). Les informations de distances sont fournies en continu, contrairement à l’I.L.S., selon une méthode du type D.M.E.

Le pilotage s’opère par comparaison entre la position mesurée et la trajectoire idéale sélectionnée. Alors que l’I.L.S. impose une présentation longue, rigide et rectiligne, le principal avantage du M.L.S. est une approche plus souple, permettant de choisir la pente de descente et de rejoindre la trajectoire rectiligne finale à des distances variables. Le principe technique de ce nouveau système d’atterrissage est particulièrement séduisant, mais sa mise en service n’en est pas pour autant assurée. En effet, l’équipement d’au moins deux mille stations au sol et de deux à trois cent mille aéronefs représente un enjeu économique considérable, alors que se développe l’exploitation des satellites. Depuis le début des années 1990, les États-Unis ne sont pas favorables au système M.L.S. et l’O.A.C.I. devra prendre une décision difficile avant l’an 2000.

Contrôle de trafic et anticollision

En complément des systèmes de navigation proprement dits, un système particulier ayant pour seul but de prévenir les collisions en vol est en cours d’expérimentation. Ce système appelé T.C.A.S. (Traffic Alert and Collision Avoidance System) est composé d’un radar et d’un calculateur, il détecte les avions dans un rayon de 20 milles, évalue les risques de collision, présente au pilote la situation et propose les manœuvres à effectuer pour éviter une collision. La pleine efficacité d’un tel système n’est concevable que si tous les avions sont équipés au minimum d’un transpondeur capable de répondre à un interrogateur en donnant des informations de route.

Comme nous venons de le constater, la navigation aérienne au-dessus des continents est entièrement dominée par la notion de contrôle. Jusqu’à un passé récent, la navigation maritime était restée étrangère à cette idée, mais la nature de certains passages maritimes obligés et la densité de la navigation amènent peu à peu, pour l’efficacité du trafic et la sécurité de l’environnement, la mise en place de dispositifs spécifiques.

Les systèmes de surveillance du trafic maritime, maintenant désignés sous l’appellation de V.T.S. (Vessel Traffic Services), fonctionnent à l’aide de radars et de systèmes de navigation de précision à faible portée. Leurs méthodes de travail varient, selon les situations, de la simple information à l’émission de directives. L’Organisation maritime internationale (O.M.I.) et certains organismes spécialisés se préoccupent maintenant de l’harmonisation des procédures, de la coopération entre systèmes locaux et régionaux, et des choix technologiques.

De la même manière que le contrôle aérien a inspiré les V.T.S. maritimes, l’avènement du T.C.A.S. pourrait faire penser à des équipements maritimes anticollision. Il n’existe actuellement que des systèmes anticollision autonomes, du type A.R.P.A. (Automatic Radar Plotting Aid), à base de radars et de calculateurs. L’étape suivante devrait être l’échange d’informations de route, de vitesse et d’intentions, sur une fréquence de transmission automatique de données entre tous les navires situés dans un périmètre déterminé. De tels systèmes pourraient se développer lorsque des moyens précis de navigation, notamment par satellites, seront accessibles à tous. L’anticollision, notion relative, pourrait alors être traitée avec la même rigueur que la navigation absolue.

5. Les systèmes autonomes

Les méthodes de navigation qui reposent sur des infrastructures à terre, érigées en systèmes, ont réalisé des progrès considérables depuis l’avènement de la radioélectricité. Qu’en est-il des moyens propres au mobile? L’estime, aidée du compas et du loch en usage depuis des siècles, n’avait reçu, il y a quelques décennies, que le secours du compas gyroscopique, mais ce gyroscope portait déjà en lui-même la clé des progrès à venir. En effet, la capacité d’une toupie, animée d’un mouvement de rotation rapide, à conserver une direction fixe dans l’espace avait été reconnue au XIXe siècle et la première expérience pratique réalisée en 1865 grâce à l’entretien du mouvement par un moteur électrique. Le premier gyrocompas, breveté par le Dr Anschutz en 1904, pouvait être embarqué en 1908, grâce au réglage d’un ensemble pendule/gyroscope qui affranchissait le système du roulis du navire. Ce réglage étant réalisé, seule subsistait une oscillation naturelle, caractéristique de notre planète, d’une période de 84 minutes, mise en évidence par le Dr Maximilien Schuler, collaborateur du Dr Anschutz. Notons que la naissance du gyrocompas est contemporaine des prémices de la radiogoniométrie, les méthodes de navigation internes et externes vont donc progresser parallèlement.

L’équipement gyroscopique étant supposé disponible, comment l’estime peut-elle être améliorée? Contrairement au chemin parcouru et à la vitesse, seule l’accélération est une grandeur mesurable sans référence externe, donc utilisable par un système autonome. Elle peut être obtenue par l’intermédiaire de la force d’inertie F d’une masse m soumise à l’accélération 塚 du mobile (F = m size=1). On mesure alors des accélérations en grandeur et en direction suivant trois axes; une première intégration par rapport au temps donne la vitesse, une deuxième intégration par rapport au temps donne le chemin parcouru et, par suite, le point.

L’instrument fondamental d’une centrale inertielle est ainsi l’accéléromètre, qui mesure l’accélération dans une direction privilégiée appelée axe sensible. Trois accéléromètres travaillent selon trois axes sensibles parfaitement déterminés par des gyroscopes associés. Les informations recueillies par ces senseurs sont exploitées par des calculateurs (fig. 6).

La réalisation des centrales à inertie fait appel à des technologies complexes et évolutives. De l’accéléromètre linéaire à l’accéléromètre pendulaire asservi, du gyroscope intégrateur flottant au gyrolaser, de la plate-forme à trois axes à la centrale à composants liés (strap down ), l’évolution constante est à la recherche de meilleures performances. À défaut de descriptions détaillées, citons un exemple d’exigence technologique: dans un gyroscope intégrateur flottant, un décalage de 2 nm (2 憐 10 size=19 m) entre le centre de gravité et le centre de poussée d’Archimède produit un balourd suffisant pour créer une dérive de 10 size=12 degré par heure. Pour un navire dont la navigation peut durer des semaines, les erreurs s’accumulent avec le temps, et un recalage périodique s’impose. Au contraire, pour un avion dont le vol ne dure que quelques heures, ou un missile dont la durée de vol se mesure en minutes, les erreurs accumulées restent acceptables. Tel est le cas standard des systèmes qui, avec des dérives gyroscopiques de 10 size=12 degré par heure, entraînent des erreurs de 1 mille par heure.

La navigation inertielle a évolué de façon continue tout au long des dernières décennies, notamment en Allemagne, aux États-Unis et en France, mais nous pouvons en retenir quelques dates significatives. Maximilien Schuler réalise la première combinaison accéléromètre-gyroscope en 1923, Claude Abbot aux États-Unis la première plate-forme à trois axes en 1924. Le premier équipement opérationnel est embarqué en 1940 sur les fusées V2, la première centrale expérimentée en vol en France en 1961. Les années 1960 sont décisives pour l’implantation de ces systèmes à bord des sous-marins et des avions de combat, puis les années 1970 pour les avions civils long-courriers.

Ainsi la continuité de la navigation progresse. Alors que les moyens radioélectriques donnent une suite discrète de positions de plus en plus précises, les centrales inertielles fournissent maintenant des interpolations permanentes qui ne sont plus estimées mais mesurées. Seuls les espaces au grand large, océans ou continents désertiques, sont encore privés d’une certaine précision. Ce sera le rôle de l’étape suivante, celle des moyens spatiaux, d’apporter une précision encore accrue et surtout distribuée de manière homogène sur toute la planète.

Avant de quitter la famille des systèmes autonomes, il convient de rappeler l’existence, à bord des mobiles, d’un certain nombre de senseurs qui apportent à la navigation des informations complémentaires. Ils relèvent tous, en terme générique, des techniques de l’échographie: une onde incidente, émise à partir du mobile, donne naissance, lorsqu’elle rencontre un obstacle, à une onde réfléchie, elle-même reçue à bord du mobile. Le récepteur associé à l’émetteur connaît la vitesse de propagation de l’onde et la direction dans laquelle elle a été émise, il peut donc mesurer la distance et l’azimut de l’obstacle, et apporte ainsi une information de position du mobile par rapport à cet obstacle. Ces équipements mettent en œuvre des ondes électromagnétiques lorsqu’ils sont destinés à travailler dans l’air (radar classique, radar Doppler, altimètre). Dans les milieux où ne pénètrent pas les ondes électromagnétiques, essentiellement dans l’eau mais aussi dans le sol, on utilise des ondes sonores ou ultrasonores (sonar, sondeur). Dans un cas comme dans l’autre, seul le traitement du signal en impulsions a permis le développement de ces techniques depuis un demi-siècle.

Observons bien entendu que cette capacité à obtenir des échos fait de ces équipements des systèmes de navigation lorsqu’ils révèlent des obstacles fixes, côtes ou fonds marins, mais des équipements de détection opérationnels lorsqu’ils s’intéressent à des échos mobiles, maritimes, aériens ou terrestres. Les spécifications techniques des uns et des autres peuvent naturellement être différentes.

6. Les systèmes à infrastructure spatiale

Le 4 octobre 1957, un satellite artificiel tourne autour de la Terre. Ce phénomène va entraîner, pour une part, la prochaine relève de la navigation astronomique par la navigation spatiale, de même que la radioélectricité avait précédemment prolongé la navigation en vue de terre. Dans un cas comme dans l’autre, l’onde électrique supplée au rayon lumineux. Mais les conditions de propagation créent une antinomie entre portée et précision lorsque les émetteurs sont situés à terre, tandis que les stations embarquées sur satellites peuvent utiliser des fréquences élevées qui travaillent toujours en visibilité directe des mobiles et ne sont limitées que par l’absorption atmosphérique.

Un système de navigation par satellites est composé par nature de trois éléments que l’usage a qualifiés de «segments». Le segment spatial est constitué de l’ensemble des satellites du système, qui émettent en permanence des messages synchronisés contenant leur identité, leur position, leur état et l’heure. Le segment de contrôle est constitué de stations au sol qui déterminent les trajectoires et éphémérides des satellites, surveillent leurs horloges et envoient à chacun d’eux les données à introduire dans leurs messages. Enfin, le segment utilisateur comprend les récepteurs, embarqués sur les mobiles, qui décodent les messages en provenance du segment spatial pour en déduire, après traitement, leur position.

Le système Transit

Le système N.N.S.S. (Navy Navigation Satellite System), plus connu sous le nom de Transit, a eu, en son temps, le mérite d’une mise au point extrêmement rapide. Dès 1957, les scientifiques américains sont parvenus à déterminer avec précision l’orbite de Spoutnik en étudiant l’effet Doppler du signal émis par ce satellite. L’idée d’utiliser le même phénomène pour l’opération inverse s’est alors imposée: le mouvement du satellite étant connu, la réception de ses signaux devait fournir, à chaque instant, un lieu de position à la surface de la terre. Le principe de Transit était né. Opérationnel dès 1964 au profit du seul département de la Défense des États-Unis, le système a été ouvert en 1967 aux utilisateurs civils.

Une dizaine de satellites décrivent des orbites polaires sensiblement circulaires à une altitude de l’ordre de 1 000 kilomètres, soit avec une période de révolution de 1 h 45 min. En n’importe quel point du globe, un observateur peut se positionner au minimum toutes les deux heures, ou plus exactement entre 100 minutes à l’équateur et 20 minutes aux pôles, étant donné la convergence polaire des orbites. La localisation du mobile s’effectue à l’aide des mesures des différences de distances des stations émettrices. Ce système s’apparente donc à un système hyperbolique dans lequel les stations, au lieu d’être fixes au sol, sont les positions successives des satellites qui défilent dans l’espace.

Le satellite émet en permanence deux fréquences, 150 et 400 MHz, qui servent à la fois à la transmission, par modulation de phase, des positions du satellite et des repères de temps, et au calcul des différences de distances, par mesure du glissement de fréquence dû à l’effet Doppler. Ces écarts de fréquence atteignent au maximum 梁 12 kHz pour 150 MHz et 梁 32 kHz pour 400 MHz. Le récepteur procède par une méthode originale dite de l’intégrale Doppler, qui compte le nombre de cycles reçus pendant un intervalle de temps donné. Les équations qui en résultent sont complexes, le calcul du point ne peut se faire que par méthode itérative. Le calculateur compare les différences de distances réellement mesurées à celles qui auraient été mesurées au point estimé, effectue des approximations successives et arrête le calcul quand les écarts deviennent inférieurs à une valeur choisie par avance. L’erreur maximale sur le point observé à la mer est de l’ordre de 500 mètres.

Quelles que soient ses performances, le système Transit présente encore des insuffisances. Il exige notamment de connaître a priori la vitesse du mobile. L’altitude relativement faible de ces satellites donne aux récepteurs une durée de visibilité très brève et un défilement apparent trop rapide; il en résulte une exploitation discontinue et une impossibilité d’emploi par les mobiles aériens dont le déplacement est trop important entre deux mesures successives sur un satellite. Cette expérience opérationnelle amène à considérer le Transit comme un système de transition, et appelle ainsi de nouveaux progrès.

Le système NavstarG.P.S.

Le NavstarG.P.S. (Navigation System with Time and Ranging/Global Positionning System) est né en 1973 de la fusion de deux programmes expérimentaux, l’un de l’U.S. Navy, l’autre de l’U.S. Air Force. Par sa conception, il affiche l’ambition d’offrir à tous les types d’utilisateurs un service homogène et continu en trois dimensions, avec un codage susceptible de donner aux forces armées américaines une précision supérieure à celle des usagers civils.

Ce système, opérationnel à partir de 1994, met en œuvre vingt-quatre satellites régulièrement répartis sur six orbites circulaires inclinées à 63 degrés sur le plan équatorial, et à une altitude de 20 200 kilomètres qui leur assure une période de révolution de douze heures. Cette architecture spatiale garantit la visibilité permanente d’au moins six satellites en tous points du globe. Le segment de contrôle comporte plusieurs stations de surveillance, éloignées les unes des autres mais toutes situées en territoire dépendant des États-Unis. La station de contrôle maîtresse (M.C.S., Master Control Station), implantée à Colorado Springs, calcule en permanence les temps de propagation ionosphérique, les effets mécaniques relativistes, la dérive des horloges, et établit les éphémérides des satellites qu’elle leur retransmet par l’intermédiaire des diverses stations de contrôle (fig. 7 et 8).

Chaque satellite possède une horloge atomique et émet sur deux fréquences en bande L avec une stabilité de 10 size=113. Ces fréquences sont modulées par trois types de signaux: un message de navigation qui contient l’almanach du système (état, identification, positions, temps), un code dit C./A. (Coarse/Acquisition) qui se répète au rythme de la milliseconde et permet la mesure de la distance, un code dit P. (Precision) qui ne se répète qu’à intervalles longs et ne peut être décrypté que par des utilisateurs privilégiés.

Le récepteur procède par mesures de distances; de ce point de vue, le G.P.S. travaille donc en régime sphérique, par intersection de plusieurs sphères de distance, et non pas en régime hyperbolique. L’horloge du récepteur est moins précise que celle du satellite et n’est pas parfaitement synchronisée. Le processus de calcul consiste donc à résoudre des équations dont les inconnues sont d’une part les trois coordonnées du mobile, et d’autre part un terme d’erreur de temps identique pour toutes les mesures de pseudo-distances puisque tous les satellites sont, eux, parfaitement synchronisés entre eux. Ainsi le récepteur utilise les données de quatre satellites pour résoudre son problème, soit par mesures successives avec une seule voie de réception, soit par mesures simultanées avec un récepteur à plusieurs voies. Cette seconde méthode peut se révéler impérative pour des mobiles rapides.

Le G.P.S. assure en tous points du globe un positionnement et une navigation en trois dimensions, précis à 100 mètres près pour les utilisateurs non privilégiés (soumis à une dégradation aléatoire des signaux), et proche de 10 mètres dans le plan horizontal ou de 15 mètres dans le plan vertical pour les ressortissants du département de la Défense des États-Unis.

Autres systèmes

Le système soviétique Glonass (Global Navigation Satellite System) a la même ambition que le G.P.S. américain, à quelques nuances techniques près. Malgré la volonté des autorités russes, le bon déroulement de ce programme reste incertain. D’autres systèmes tels que Geostar aux États-Unis ou Locstar en Europe n’ont pas survécu aux conditions économiques. Élaborés au cours des années 1980, ils devaient permettre la localisation des mobiles terrestres à partir de satellites géostationnaires. D’autres programmes ayant le même objet sont susceptibles de se développer.

Enfin, un système à infrastructure satellitaire tel que le G.P.S. est justiciable de la même procédure différentielle que celle qui avait été utilisée avec le système Omega: un récepteur G.P.S., placé en une position géodésique parfaitement connue, peut mesurer l’erreur entre sa position issue des réceptions G.P.S. et sa position réelle. Ces mesures, exploitées et rediffusées automatiquement dans un rayon de quelques centaines de milles, permettent d’atteindre des précisions de l’ordre de quelques mètres, voire du mètre. Pour toutes les utilisations qui requièrent une grande précision, le G.P.S. différentiel entre alors en concurrence avec la plupart des systèmes de proximité à infrastructure terrestre. Depuis le début des années 1990, de tels réseaux d’initiatives privées, intéressant notamment la recherche pétrolière en mer, s’étendent dans certaines parties du monde.

7. Perspectives

L’avènement des systèmes à infrastructure spatiale va entraîner des bouleversements considérables dans les activités de positionnement, de localisation et de navigation au cours des décennies à venir (fig. 9). Mais l’enthousiasme jusitifié que suscite cette véritable révolution appelle aussi quelques précautions.

Le succès scientifique et opérationnel du G.P.S. est universel, mais la tutelle du gouvernement des États-Unis rend le monde entier dépendant d’un seul État. Or, la nécessité d’utiliser les satellites pour les opérations de positionnement et de navigation est un phénomène désormais irréversible. Pour échapper à cette dépendance et pour diversifier les perspectives d’exploitation, les instances internationales ainsi que certains États évoquent maintenant l’idée d’un ou de plusieurs G.N.S.S. (Global Navigation Satellite System). Sous réserve des indispensables motivations et capacités financières, on pourrait donc voir apparaître de nouvelles constellations de satellites, sous statut international, communautaire, étatique ou privé, et qui opéreraient sous forme de services publics ou commerciaux.

Quelles que soient les évolutions statutaires, les futurs systèmes devront répondre à de nouvelles exigences. L’exemple le plus spectaculaire est imposé par la navigation aéronautique: un système de navigation ne peut être utilisé dans les conditions d’approche et d’atterrissage les plus difficiles que si son intégrité est garantie; Ainsi, il est impératif de remédier à toute défaillance du signal en cours d’exploitation dans un délai de quelques secondes. Diverses méthodes font déjà l’objet de réflexions en la matière, notamment la mise en place de satellites géostationnaires chargés de la surveillance des systèmes, ou la redondance des équipements émetteurs et récepteurs, ou encore la conjugaison d’infrastructures spatiales et terrestres.

Même si la suprématie des systèmes à infrastructure spatiale est incontestable, il semblerait déraisonnable d’abandonner à des satellites lointains toute activité de localisation à la surface de la Terre. La survivance d’au moins un grand système à infrastructure terrestre, qui en l’état actuel serait le Loran C, devrait être assurée, ainsi que l’existence de divers systèmes de proximité, en nombre plus ou moins réduit, tels que le Syledis ou les systèmes d’atterrissage. Quant aux utilisateurs (professionnels ou amateurs), ils bénéficieront de plus en plus de la toute-puissance des calculateurs qui mettront à leur disposition des récepteurs «intelligents» capables de présenter de manière simple les informations issues d’un ou de plusieurs systèmes, spatiaux ou terrestres. Marins et aviateurs resteront les plus exigeants en termes de sécurité, mais ils seront bientôt minoritaires face aux exploitants des réseaux de transports terrestres et à la foule des automobilistes qui disposeront d’un système de navigation sur leur tableau de bord.

Encyclopédie Universelle. 2012.

Regardez d'autres dictionnaires:

  • Navigation Aérienne — La navigation aérienne est l ensemble des techniques permettant à un pilote d aéronef de maitriser ses déplacements. En général, cette route débute et se termine sur un aérodrome. Sommaire 1 Historique 2 Les outils nécessaires …   Wikipédia en Français

  • Navigation aerienne — Navigation aérienne La navigation aérienne est l ensemble des techniques permettant à un pilote d aéronef de maitriser ses déplacements. En général, cette route débute et se termine sur un aérodrome. Sommaire 1 Historique 2 Les outils nécessaires …   Wikipédia en Français

  • Navigation aérienne — La navigation aérienne est l ensemble des techniques permettant à un pilote d aéronef de maitriser ses déplacements. En général, cette route débute et se termine sur un aérodrome. Sommaire 1 Historique 2 Les outils nécessaires 2 …   Wikipédia en Français

  • Navigation céleste — Navigation La navigation est la science et l ensemble des techniques qui permettent de : connaître la position (ses coordonnées) d un mobile par rapport à un système de référence, ou par rapport à un point fixe déterminé [1]; calculer ou… …   Wikipédia en Français

  • Navigation Maritime — La navigation maritime concerne toutes les activités humaines de circulation sur les mers et océans. On parle de navigation hauturière lorsque le navire navigue en haute mer (hors de vue de terre) et de navigation côtière (ou cabotage, mais ce… …   Wikipédia en Français

  • NAVIGATION (HISTOIRE DE LA) — L’histoire de la navigation, essentiellement liée à l’histoire de la civilisation et aux découvertes géographiques, retrace les étapes de la conquête de la mer par l’homme et en explique les raisons: l’attrait de l’aventure et le goût du risque,… …   Encyclopédie Universelle

  • Navigation a l'estime — Navigation à l estime La navigation à l estime est une méthode de navigation qui consiste à déduire la position d un véhicule (terrestre, maritime, aérien ou spatial ; piloté ou automatique) de sa route et de la distance parcourue depuis sa… …   Wikipédia en Français

  • Navigation À L'estime — La navigation à l estime est une méthode de navigation qui consiste à déduire la position d un véhicule (terrestre, maritime, aérien ou spatial ; piloté ou automatique) de sa route et de la distance parcourue depuis sa dernière position… …   Wikipédia en Français

  • Navigation Côtière — La navigation côtière rassemble l ensemble des méthodes de navigation maritime utilisées lorsqu un navire navigue en vue de terre, et venant du large, après avoir atterri. La navigation côtière est une navigation relative où l on se situe par… …   Wikipédia en Français

  • Navigation cotiere — Navigation côtière La navigation côtière rassemble l ensemble des méthodes de navigation maritime utilisées lorsqu un navire navigue en vue de terre, et venant du large, après avoir atterri. La navigation côtière est une navigation relative où l… …   Wikipédia en Français